可解释的AI(XAI)的目的是设计方法,以提供有关黑盒模型(例如深神经网络)的推理过程的见解,以便向人类解释它们。社会科学研究指出,这种解释应该是对话的,类似于人类对人类的解释。在这项工作中,我们使用包含自然语言理解和发电组成部分的代理的标准设计来展示如何将XAI纳入对话代理。我们以XAI问题库为基础,我们通过质量控制的释义扩展,以了解用户的信息需求。我们进一步系统地调查了文献,以提供适当的解释方法,这些方法提供了以回答这些问题的信息,并提供了全面的建议列表。我们的工作是使用解释代理进行有关机器学习模型的真正自然对话的第一步。 XAI问题的全面列表和相应的解释方法可能会支持其他研究人员提供必要的信息以满足用户的需求。
translated by 谷歌翻译